\[\begin{eqnarray} \sigma^2&=&\frac{1}{N}\sum_{i=1}^N(X_i-p)^2\\ &=&\frac{1}{N}\sum_{i=1}^N(X_i^2-2pX_i+p^2)\\ &=&\frac{\sum_{i=1}^N X_i^2-2p\sum_{i=1}^N X_i+\sum_{i=1}^N p^2}{N}\\ &=&\frac{\sum_{i=1}^N X_i-2p\sum_{i=1}^N X_i+\sum_{i=1}^N p^2}{N}\\ &=&\frac{Np-2pNp+Np^2}{N}=p(1-p) \end{eqnarray}\]
\[\mathbf{X}=(X_1,X_2,\ldots,X_5)=(1,0,1,0,1)\]
\[p=\frac{\sum_{i=1}^5X_i}{5}=\frac{3}{5}=0.6\]
\[\begin{eqnarray} \sigma^2&=&\frac{1}{5}\sum_{i=1}^N(X_i-p)^2\\ &=&\frac{3\times(1-0.6)^2+2\times(0-0.6)^2}{5}\\ &=&0.24\\ &=&p(1-p) \end{eqnarray}\]
Gráfico de barras (proporção) dos dados populacionais:
\(N^n=25\) amostras possíveis.
Distribuição amostral de \(\hat{p}\):
| \(x\) | \(P(\hat{p}=x)\) |
|---|---|
| 0 | 0.16 |
| 0.5 | 0.48 |
| 1 | 0.36 |
\[\begin{eqnarray} E(\hat{p})&=&0\times 0.16 + 0.5\times 0.48 + 1\times 0.36 = 0.6 = p\\ &\\ Var(\hat{p})&=&E[(\hat{p}-p)^2]\\ &=&0.16\times(0-0.6)^2 + 0.48\times(0.5-0.6)^2 + 0.36\times (1-0.6)^2\\ &=&0.12=\frac{0.24}{2}=\frac{p(1-p)}{n} \end{eqnarray}\]
Distribuição amostral de \(\hat{p}\):
\(N^n=125\) amostras possíveis.
Distribuição amostral de \(\hat{p}\):
| \(x\) | \(P(\hat{p}=x)\) |
|---|---|
| 0 | 0.064 |
| 0.333 | 0.288 |
| 0.667 | 0.432 |
| 1 | 0.216 |
\[\begin{eqnarray} E(\hat{p})&=&0\times 0.064 + 0.333\times 0.288 + 0.667\times 0.432 + 1\times 0.216\\ &=& 0.6 = p\\ Var(\hat{p})&=&E[(\hat{p}-p)^2]\\ &=&0.08=\frac{0.24}{3}=\frac{p(1-p)}{n} \end{eqnarray}\]
Distribuição amostral de \(\hat{p}\):
\(\mathbf{X}=(X_1,\ldots,X_N)\) é fixo
Amostra aleatória de tamanho \(n\)
\(\hat{p}\) é v.a. (pelo processo de amostragem)
\(E(\hat{p})=p\)
\(Var(\hat{p})=\frac{p(1-p)}{n}\)
\(p=0.6\) - Distribuição amostral de \(\hat{p}\):
\(p=0.6\) - Distribuição amostral de \(\hat{p}\):
Suponha que a resposta de uma pessoa da cidade sobre se vota ou não no candidato \(A\) possa ser representada por uma variável aleatória. \(X\) que assume o valor \(1\) com probabilidade \(p\) ou \(0\) com probabilidade \(1-p\).
\(\begin{aligned} X &\sim Bernoulli(p)\\ & \\ \mathbb E(X) &= 1 \times P(X=1) + 0 \times P(X=0) \\ &= 1\times p + 0\times (1-p) = p\\ & \\ Var(X) &= \mathbb E[(X - p)^2] \\ &= (1-p)^2 \times P(X=1) + (0 - p)^2 \times P(X=0) \\ &=p(1-p)^2+(1-p)p^2\\ &= p(1-p) \end{aligned}\)
Todas as combinações possíveis de amostras com \(n=2\) são:
| Possibilidades | \((X_1 = 1, X_2 = 1)\) | \((X_1 = 1, X_2 = 0)\) | \((X_1 = 0, X_2 = 1)\) | \((X_1=0,X_2=0)\) |
|---|---|---|---|---|
| \(\hat{p}=\frac{1}{n}\sum_{i=1}^nX_i\) | 1 | 0.5 | 0.5 | 0 |
| \(P(X_1 = i, X_2 = j)\) | \(p^2\) | \(p(1-p)\) | \((1-p)p\) | \((1-p)^2\) |
\(\displaystyle \mathbb E(\hat{p}) = 1 \times p^2 + 0.5 \times p(1-p) + 0.5 \times (1-p)p + 0\times (1-p)^2= p\)
\(\begin{aligned} Var(\hat{p}) &= \mathbb E[(\hat{p} - p)^2 ] \\ &= (1 - p)^2 \times p^2 + (0.5 - p)^2 p(1-p) + (0.5 - p)^2 (1-p)p + (0 - p)^2 (1-p)^2 \\ &= \frac{p(1-p)}{2} \end{aligned}\)
Note que: \(\displaystyle \mathbb E(\hat{p}) = p = \mathbb E(X)\) e \(\displaystyle Var(\hat{p}) = \frac{Var(X)}{n}\).
Gráficos das distribuições de probabilidade de \(X\sim Bernoulli(p=0.6)\) e \(\hat{p}\):
Seja \(X\) uma v.a. com distribuição de Bernoulli com parâmetro \(p\). Sabe-se que \(E(X)=p\) e \(Var(X)=p(1-p)\). Considere uma amostra aleatória \(X_1, X_2,\ldots, X_n\) de \(X\).
A proporção amostral \[\hat{p} = \frac{1}{n}\sum_{i=1}^n X_i\] tem as seguintes propriedades:
\[\mathbb E (\hat{p}) = p \qquad \mbox{e} \qquad Var(\hat{p}) = \frac{p(1-p)}{n}.\]
(propriedade de linearidade da esperança e da variância, esta última em caso de independência)
Ou seja, embora \(p\) seja desconhecido, sabemos que o valor esperado da proporção amostral é \(p\).
Além disso, conforme o tamanho amostral aumenta, a imprecisão de \(\hat{p}\) para estimar \(p\) fica cada vez menor, pois \(Var(\hat{p}) = p(1-p)/n\) é inversamente proporcional ao tamanho amostral \(n\).
\(X_i\sim Bernoulli (p)\) é v.a. (o voto ou não em \(A\) é considerado uma v.a.)
Amostra aleatória de tamanho \(n\)
\(\hat{p}\) é v.a. (é combinação linear de v.a.’s)
\(E(\hat{p})=p\)
\(Var(\hat{p})=\frac{p(1-p)}{n}\)
Amostra aleatória \(n=3\) de \(X\sim Bernoulli(p=0.6)\).
\(\mathbb E(X) = p = 0.6 \qquad \Rightarrow \qquad \mathbb E (\hat{p}) = 0.6\)
\(Var(X) = p(1 - p) = 0.24 \;\; \Rightarrow \;\; Var(\hat{p}) = \frac{0.24}{3} = 0.08\)
\(p=0.6\)
\(p=0.6\)
\(p=0.6\)
E, conforme \(n\) aumenta, vimos nos gráficos que: \(\hat{p}\sim \mathcal{N}\left(p,\frac{p(1-p)}{n}\right)\)
Cidade com \(N\) pessoas.
\(X_i\) é o salário da pessoa \(i\).
\(\mathbf{X}=(X_1,X_2,\ldots,X_N)\): respostas de toda a população.
Média populacional: \(\mu=\frac{1}{N}\sum_{i=1}^N X_i\)
Variância populacional: \(\sigma^2=\frac{1}{N}\sum_{i=1}^N(X_i-\mu)^2\)
\(\mu\) = salário médio da população.
\(\sigma^2\) é a variância da população.
Coletamos uma amostra aleatória de tamanho \(n\).
\(\bar{X}\): média salarial na amostra.
Quão boa é a estimativa? É precisa?
Se outra pessoa também coleta uma amostra aleatória de tamanho \(n\) e calcula \(\bar{X}\) teremos o mesmo valor?
\[\mathbf{X}=(X_1,X_2,\ldots,X_5)=(1000,2000,3000,4000,5000)\]
\[\mu=\frac{\sum_{i=1}^5X_i}{5}=3000\] \[\sigma^2=\frac{1}{5}\sum_{i=1}^N(X_i-\mu)^2=2000000\]
Gráfico de barras (proporção) dos dados populacionais:
\(N^n=25\) amostras possíveis.
Distribuição amostral de \(\bar{X}\):
| \(x\) | \(P(\bar{X}=x)\) |
|---|---|
| 1000 | 0.04 |
| 1500 | 0.08 |
| 2000 | 0.12 |
| 2500 | 0.16 |
| 3000 | 0.20 |
| 3500 | 0.16 |
| 4000 | 0.12 |
| 4500 | 0.08 |
| 5000 | 0.04 |
\[\begin{eqnarray} E(\bar{X})&=&3000=\mu\\ & \\ Var(\bar{X})&=&E[(\bar{X}-\mu)^2]=10^{6}\\ &=&\frac{2000000}{2}=\frac{\sigma^2}{n} \end{eqnarray}\]
Distribuição amostral de \(\bar{X}\):
\(N^n=125\) amostras possíveis.
Distribuição amostral de \(\bar{X}\):
| \(x\) | \(P(\bar{X}=x)\) |
|---|---|
| 1000 | 0.008 |
| 1333.333 | 0.024 |
| 1666.667 | 0.048 |
| 2000 | 0.080 |
| 2333.333 | 0.120 |
| 2666.667 | 0.144 |
| 3000 | 0.152 |
| 3333.333 | 0.144 |
| 3666.667 | 0.120 |
| 4000 | 0.080 |
| 4333.333 | 0.048 |
| 4666.667 | 0.024 |
| 5000 | 0.008 |
\[\begin{eqnarray} E(\bar{X})&=&3000=\mu\\ &\\ Var(\bar{X})&=&E[(\bar{X}-\mu)^2]=6.6666668\times 10^{5}\\ &=&\frac{2000000}{3}=\frac{\sigma^2}{n} \end{eqnarray}\]
Distribuição amostral de \(\bar{X}\):
\(\mathbf{X} = (X_1,\ldots,X_N)\) é fixo
Amostra aleatória de tamanho \(n\)
\(\bar{X}\) é v.a.
\(E(\bar{X})=\mu\)
\(Var(\bar{X})=\frac{\sigma^2}{n}\)
\(\mu=3000\) - Distribuição amostral de \(\bar{X}\):
\(\mu=3000\) - Distribuição amostral de \(\bar{X}\):
Suponha que o salário de uma pessoa possa ser representado por uma variável aleatória uniforme discreta assumindo os valores 1000, 2000, 3000, 4000 ou 5000.
\(\begin{aligned} \mu=\mathbb E(X) &= \frac{1000+2000+3000+4000+5000}{5}=3000 \\ \sigma^2=Var(X) &= \frac{1}{5}[(1000-3000)^2+(2000-3000)^2+(3000-3000)^2\\ &+(4000-3000)^2+(5000-3000)^2]\\ &= 2000000 \end{aligned}\)
Distribuição da variável \(X\) (do salário de cada indivíduo da população):
Então, temos que
\(\displaystyle \mathbb E(\bar{X}) = \frac{1}{n}\sum_{i=1}^n \mathbb E (X_i)= E(X)=\mu=3000\)
\(\begin{aligned} Var(\bar{X}) &= \frac{1}{n}\sum_{i=1}^n Var (X_i)= \frac{Var(X)}{n}=\frac{\sigma^2}{n}=1000000\\ \end{aligned}\)
(propriedades de linearidade da esperança e variância (a.a.))
Seja \(X\) uma v.a. com média \(\mu\) e variância \(\sigma^{2}\) e \(X_{1}, \ldots, X_{n}\) uma amostra aleatória de \(X\).
A média amostral \[\bar X_n = \frac{1}{n}\sum_{i=1}^n X_i\] tem as seguintes propriedades:
\[\mathbb E (\bar X_n) = \mu \qquad \mbox{e} \qquad Var(\bar X_n) = \frac{\sigma^2}{n}.\]
(propriedade de linearidade da esperança e da variância, esta última em caso de independência)
Ou seja, embora \(\mu\) seja desconhecido, sabemos que o valor esperado da média amostral é \(\mu\).
Além disso, conforme o tamanho amostral aumenta, a imprecisão da média amostral para estimar \(\mu\) fica cada vez menor, pois \(Var(\bar X) = \sigma^2/n\) é inversamente proporcional ao tamanho amostral \(n\).
Temos uma população com média (proporção) \(\mu\) (\(p\)) e variância \(\sigma^2\) desconhecida.
Retira-se uma amostra aleatória de tamanho \(n\) e calcula-se a média (ou proporção) amostral \(\bar{X}\) (ou \(\hat{p}\)) para estimar o parâmetro populacional desconhecido \(\mu\) (ou \(p\)).
Temos as propriedades:
\[E(\bar{X})=\mu \quad \quad Var(\bar{X})=\frac{\sigma^2}{n}\]
\[E(\hat{p})=p\quad \quad Var(\hat{p})=\frac{p(1-p)}{n}\]
E, conforme \(n\) aumenta, pelos gráficos, parece que a distribuição amostral de \(\bar{X}\) e \(\hat{p}\) se aproxima da normal:
\[\bar{X}\sim \mathcal{N}\left(\mu,\frac{\sigma^2}{n}\right) \quad \quad \hat{p}\sim \mathcal{N}\left(p,\frac{p(1-p)}{n}\right)\]
Para uma amostra aleatória de tamanho \(n\) a partir de uma população:
com média \(\mu\) e variância \(\sigma^2\)
\(\bar X\): \(\mathbb E(\bar X) = \mu\) e \(Var(\bar X) = \frac{\sigma^2}{n}\). Erro padrão: \(EP(\bar{X})=\sqrt{Var(\bar X)}=\sigma/\sqrt{n}\).
com proporção populacional \(p\)
\(\hat{p}\): \(\mathbb E(\hat{p}) = p\) e \(Var(\hat{p}) = \frac{p(1-p)}{n}\). Erro padrão: \(EP(\hat{p})=\sqrt{Var(\hat p)}=\sqrt{\frac{p(1-p)}{n}}\).
No exemplos, vimos também a distribuição amostral de \(\bar X\) ou \(\hat{p}\), mas isso só foi possível porque tínhamos informação de todos os valores possíveis na população.
Os exemplos anteriores foram casos hipotéticos apenas para ilustrar como \(\bar X\) e \(\hat{p}\) se comportam quando realizamos a amostragem.
Na prática, não teremos informações suficientes para de fato descrevermos a distribuição amostral exata de \(\bar X\) e \(\hat{p}\) (se tivermos, nem é preciso fazer amostragem!)
Resultado
\[\bar{X}\sim\mathcal{N}\left(\mu,\frac{\sigma^2}{n}\right)\]
\[Z = \frac{\bar X - \mu}{\sigma / \sqrt{n}} \sim \mathcal{N}(0,1)\]
Obs: o resultado vale para \(\hat{p}\), com \(\mu=p\) e \(\sigma^2=p(1-p)\).
Suponha que \(X\) denota o tempo de vida de um transistor (em horas) e seu comportamento pode ser representado por uma distribuição Exponencial, tal que \(X \sim Exp(2)\), ou seja: \[f_{X}(x) = 2e^{-2x}, \qquad \mbox{para } x \geq 0.\]
Sabemos que:
\(\mathbb E(X) = \frac{1}{2}\)
\(Var(X) = \frac{1}{4}\)
Os tempos de vida de 100 transistores escolhidos ao acaso são coletados e a média dos tempos é calculada, denotada por \(\bar X_{100}\).
Desejamos estudar a variável aleatória \(\bar X_{100}\).
Sabemos que: \[\mathbb E(\bar X_{100}) = \frac{1}{2} \mbox{ e } Var(\bar X_{100}) = \frac{1/4}{100} = \frac{1}{400}\]
Então, pelo TLC:
\[\displaystyle \bar X_{100}\sim N \left(\frac{1}{2},\frac{1}{400}\right).\]
\(X=\) resultado obtido no lançamento de um dado honesto.
| \(x\) | 1 | 2 | 3 | 4 | 5 | 6 |
|---|---|---|---|---|---|---|
| \(p(x)=P(X=x)\) | \(\frac{1}{6}\) | \(\frac{1}{6}\) | \(\frac{1}{6}\) | \(\frac{1}{6}\) | \(\frac{1}{6}\) | \(\frac{1}{6}\) |
\(\mathbb E(X) = \frac{1}{6}\times(1+2+3+4+5+6) = \frac{21}{6} = 3.5\)
\(Var(X) = \frac{1}{6}[(1-3.5)^2+(2-3.5)^2+\ldots+(6-3.5)^2] = \frac{17.5}{6} = 2.92\)
Se temos uma amostra aleatória de tamanho \(n\): \(X_1,X_2,\ldots, X_n\), pelo TLC sabemos que a distribuição amostral de \(\bar X\) é Normal\(\left( 3.5, \frac{2.92}{n} \right)\) para \(n\) grande.
O primeiro histograma a seguir mostra o resultado de 100000 repetições do seguinte experimento: observar o resultado do lançamento de 1 dado. Repare que é muito próximo de uma distribuição uniforme discreta (chance 1/6 para cada resultado), que é a distribuição de \(X\).
O segundo histograma mostra o resultado de 100000 repetições do seguinte experimento: observar a média do lançamento de 2 dados.
O último histograma mostra o resultado de 100000 repetições do seguinte experimento: observar a média do lançamento de 100 dados.
Repare que conforme o número de dados lançados (tamanho amostral) aumenta, a distribuição da média amostral se aproxima da distribuição normal com média 3.5 e variância cada vez menor (2.92/n).
Você pode verificar o comportamento de \(\bar X\) para várias distribuições de \(X\):
Se \(\quad \widehat p = \frac{\sum_{i=1}^n X_i}{n}=\frac{S_n}{n} \quad \Longrightarrow \quad S_n = n\widehat p\).
Quando \(n\) é grande o suficiente: \(\quad \widehat p \sim N \left(p, \frac{p(1-p)}{n}\right)\)
Nesse caso, qual a distribuição de \(S_n\)?
Vimos que \(S_n = X_1 + \ldots + X_n \sim Bin(n, p)\)
Pelas propriedades da distribuição Normal: \[S_n = n \widehat p \sim N \left(np, np(1-p) \right)\]
Portanto, quando \(n\) é grande, \(Bin(n, p) \approx N \left(np, np(1-p) \right)\)
Um dos principais objetivos da Estatística é tirar conclusões a partir dos dados.
Dados em geral consistem de uma amostra de elementos de uma população de interesse.
Usar a amostra para tirar conclusões sobre a população.
Quão confiável será utilizar a informação obtida apenas de uma amostra para concluir algo sobre a população?
População: todos os elementos ou resultados de um problema que está sendo estudado.
Amostra: subconjunto da população de interesse.
Variável: Característica numérica do resultado de um experimento.
Parâmetros: Característica numérica (desconhecida) da distribuição dos elementos da população.
Estimador/Estatística: Função da amostra, construída com a finalidade de representar, ou estimar um parâmetro de interesse na população.
Estimativa: Valor numérico que um estimador assume para uma dada amostra.
Erro amostral: é a diferença entre um estimador e o parâmetro que se quer estimar.
Seja \(X_{1},...,X_{n}\) uma amostra e \[T = f(X_{1}, \ldots, X_{n})\] é uma estatística.
Exemplos:
Note que uma estatística é uma função que em uma determinada amostra assume um valor específico (estimativa).
Para que serve uma estatística?
Para “estimar” características de uma população.
População:
Amostra:
Temos interesse em saber a média e a variância da altura dos brasileiros: \(\mu\) e \(\sigma^2\).
Solução 1: Medir a altura de todos os brasileiros.
Solução 2: Selecionar de forma aleatória alguns brasileiros (amostra), analisá-la e inferir propriedades para toda a população.
Slides produzidos pelos professores:
Samara Kiihl
Tatiana Benaglia
Larissa Matos
Benilton Carvalho